iT邦幫忙

2022 iThome 鐵人賽

DAY 29
1

經過了四個禮拜28天的學習,相信各位對強化學習應該都已經有基礎的認識了,各位在閒暇時也可以試著自己從0開始建立環境。今天我想要分享一下強化學習的延伸應用,有其他資源也會一併附上~

參數調整

各位可能也在參數的選擇上有點丈二金剛摸不著頭腦,例如各演算法的超參數,模型的參數,環境的一些變量等,其他像是隸屬函數的傾斜度,平坦度等等的參數,這邊我在之前專案有曾經使用過人工蜂群演算法(ABC)來找尋最佳的參數組合,或者時間很多也可以使用窮舉法試所有參數組合。上述提到的人工蜂群是一種最佳化的演算法,其他類似灰狼演算法,粒子群演算法也都是,各位有興趣可以試試看。

延伸應用

強化學習的應用真的是太多了,從最早的圍棋alpha go到現在無人駕駛等等應該都脫離不了強化學習的領域,在這個領域中我們可以:

訓練遊戲AI:gym中有很多遊戲環境,可見強化學習在遊戲發展上也是一個重要的分支。

機器人控制:許多機器人以往要以人工來控制其動作,現在你有了強化學習,還有了虛擬環境,就可以降低大量的成本來訓練機器人達成任務啦!

跟其他人工智慧技術混搭:之前曾看過跟自然語言處理有關的生成對抗網路使用了強化學習的模型當成判別器(discriminator),這樣可以直接透過強化學習來評斷生成器(generator)生成文字的優劣。

其他資源

強化學習還有其他的模組等可以使用,這邊推薦幾個,也會一併附上該函示庫的github跟官方文檔:

Coach:這個為以tensorflow為框架的強化學習函式庫。

github:https://github.com/IntelLabs/coach

官方文檔:https://intellabs.github.io/coach/


RLLib:這個為以tensorflow、pytorch為框架的強化學習函式庫。

官方文檔:https://docs.ray.io/en/latest/rllib/index.html


Dopamine:這個為以tensorflow為框架的強化學習函式庫。

github:https://github.com/google/dopamine

官方文檔:https://google.github.io/dopamine/docs/

總結

這幾天雖然遇到很多困難,但我還是努力克服了,在即將完賽的同時我也覺得這項成果使我成就感滿滿,明天最後一天就來分享這次的心得吧!


上一篇
D28:實作隸屬函數(3/3)—Gaussian&Sigmoid mf
下一篇
D30:關於這次鐵人賽!
系列文
高中生也可以!利用強化學習讓機器人動起來!30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言